Световни новини без цензура!
Мрежи, свързани с Русия и Китай, използват инструменти на OpenAI за разпространение на дезинформация
Снимка: ft.com
Financial Times | 2024-05-30 | 20:13:04

Мрежи, свързани с Русия и Китай, използват инструменти на OpenAI за разпространение на дезинформация

OpenAI разкри, че интервенции, свързани с Русия, Китай, Иран и Израел, употребяват неговите принадлежности за изкуствен интелект за основаване и разпространяване на дезинформация, защото технологията се трансформира в мощно оръжие в осведомителна война в една тежка за избори година. 

Базираният в Сан Франциско производител на чатбота ChatGPT съобщи в отчет в четвъртък, че пет секрети интервенции за въздействие са употребявали неговите AI модели за генериране на текст и изображения с огромен размер, с по-малко езикови неточности от преди, както и да генерират мнения или отговори на личните си изявления. Политиките на OpenAI не разрешават потреблението на неговите модели за машинация или заблуждение на други. 

Съдържанието се концентрира върху въпроси „ в това число нахлуването на Русия в Украйна, спора в Газа, изборите в Индия, политиката в Европа и Съединените щати и рецензии към китайското държавно управление от китайски дисиденти и непознати държавни управления “, OpenAI се споделя в отчета.  

Мрежите също са употребявали AI, с цел да подобрят личната си продуктивност, като са го ползвали към задания като премахване на неточности в код или осъществяване на изследване на активността на обществените обществени медии, се споделя в известието.

Социалните медийни платформи, в това число Meta и YouTube на Гугъл се пробваха да понижат разпространяването на акции за дезинформация след успеха на Доналд Тръмп през 2016 година на президентските избори в Америка, когато американските следователи откриха доказателства, че съветска плантация за тролове се е пробвала да манипулира вота.

Натискът върху бързоразвиващите се AI компании като OpenAI се усилва, защото бързият прогрес в тяхната технология значи, че е по-евтино и по-лесно от всеки път за причинителите на дезинформация да основават реалистични дълбоки имитации и да манипулират медиите и по-късно да популяризират това наличие по автоматизиран метод.

Тъй като тази година към 2 милиарда души ще се насочат към урните, политиците приканиха фирмите да вкарат и наложат подобаващи защитни огради.

Бен Нимо, основен откривател за разузнаване и следствия в OpenAI, сподели по време на диалог с кореспонденти, че акциите не наподобяват „ свястно “ повишили тяхната ангажираност или обсег вследствие на потреблението на моделите на OpenAI. 

Но, добави той, „ това не е моментът за блаженство. Историята демонстрира, че интервенциите за въздействие, които са прекарали години в крах да стигнат до на никое място, могат ненадейно да избухнат, в случай че никой не ги търси. -задвижвани принадлежности, с цел да създадат откриването и разбора „ по-ефективни “. Той добави, че неговите системи за сигурност към този момент са затруднили действието на причинителите, като моделите му отхвърлят в доста случаи да генерират претенции текст или изображения.

В отчета OpenAI разкри няколко добре известни положения -свързани участници в дезинформацията са употребявали неговите принадлежности. Те включват съветска интервенция Doppelganger, която беше открита за първи път през 2022 година и нормално се пробва да подкопае поддръжката за Украйна, и китайска мрежа, известна като Spamouflage, която прокарва ползите на Пекин в чужбина. И двете акции използваха нейните модели, с цел да генерират текст или коментар на голям брой езици, преди да разгласяват на платформи като X на Илон Мъск.

Той маркира неотчетена преди този момент съветска интервенция, наречена Bad Grammar, като сподели, че употребява OpenAI модели за премахване на неточности в кода за ръководство на бот на Telegram и за основаване на къси политически мнения на съветски и британски, които по-късно бяха оповестени в платформата за известия Telegram.

Telegram и X бяха потърсени за коментар.

Това също съобщи, че е осуетил произраелски опит за дезинформация против наемане, за който се твърди, че е управителен от основан в Тел Авив бизнес за ръководство на политически акции, наименуван STOIC, който употребява своите модели за генериране на публикации и мнения в Instagram, Фейсбук и X на Meta.

Meta разгласява в сряда отчет, в който се показва, че е премахнал наличието на STOIC. Акаунтите, свързани с тези интервенции, бяха прекъснати от OpenAI.

Допълнително докладване от Кристина Кридъл

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!